achtergrond

Geenstijl

ingelogd als

lid

logout

nachtmodus

tip redactie

doneer

@wetenschappelijke integriteit

LOL. Nederlandse hoogleraar Intensive Care schrijft artikel over AI vol verwijzingen naar niet-bestaande studies

Dat is: wat AI zou doen

Hé maar dit is gek. Bij de pagina van een artikel over het gebruik van AI, artificial intelligence, in ons favoriete tijdschrift over Intensive Care, namelijk Intensive Care Medicine, staat sinds dinsdag een bijzondere melding. "Readers are alerted that concerns regarding the presence of nonexistent references have been raised. Appropriate Editorial actions will be taken once this matter is resolved." En dat is wel grappig. Want verwijzen naar niet bestaande artikelen is nou precies wat AI zou doen (cf. Charlotin, 2025). 

Nou willen wij natuurlijk niet beweren dat professor Alexander Vlaar van het Amsterdamse universitair Medisch Centrum AI heeft gebruikt om een stuk over AI te schrijven, maar wij waren wel benieuwd waar professor Alexander Vlaar de artikelen waar hij naar verwijst had gevonden. De artikelen waar onder noot 1, 3, 4, 6, 8, 10, 11, 12, 13 en 14 wordt verwezen lijken namelijk helemaal niet te bestaan. Dat zijn 10 van de 15 verwijzingen. Dat is geen klein slordigheidsfoutje meer, dat is gewoon keihard hallucineren. En oh ja, bij verwijzing 2 staat het jaartal verkeerd. Verwijzing 9 klopt wel, maar dat is dan weer een verwijzing naar een artikel waar professor Vlaar zelf aan heeft meegeschreven.

GeenStijl heeft het Amsterdam UMC om commentaar gevraagd, dat laat weten: "Amsterdam UMC was door de auteur al op de hoogte gesteld van onjuistheden in de referentielijst. Het artikel is opgesteld zonder gebruik van AI. Alleen voor de uiteindelijke opmaak is gebruikgemaakt van LLM (Large Language Model). Dit is conform de richtlijnen van het tijdschrift, volgens diezelfde richtlijnen hoeft dit niet vermeld te worden. Hierbij zijn helaas fouten in de referentielijst ontstaan, die bij de eindcontrole niet zijn opgemerkt. Dat had uiteraard niet mogen gebeuren. Een correctie met de juiste referenties is bij het tijdschrift ingediend. Dit voorval benadrukt voor ons het belang van zorgvuldigheid bij het gebruik van AI en het kritisch controleren van het eindresultaat."

Kan gebeuren natuurlijk, dat er opeens niet-bestaande artikelen worden verzonnen als je AI de """uiteindelijk opmaak""" van je stuk laat doen. Nou ja, wat """professor Vlaar en zijn twee co-auteurs""" in hun laatste alinea schrijven dus: "In conclusion, while AI holds immense promise for transforming hemodynamic monitoring, succesful integration into clinical practice requires thorough validation, regular updates to ensure ongoing accuracy, integration into existing healthcare infrastructure and a focus on improving clinical outcomes." Je zou haast zeggen: doe even wat validation en ongoing accuracy als je AI je wetenschappelijk artikel laat """opmaken""". 

En wat voor straffen bestaan er eigenlijk voor professors die AI gebruiken als dat niet de bedoeling is? Worden die ook voor vakken uitgesloten? Het Amsterdam UMC wilde aan GeenStijl in ieder geval niets laten weten over eventuele maatregelen tegen ChatGPT en/of professor Vlaar. Nu maar hopen dat ze daar het eindresultaat van hun operaties wél kritisch controleren.

Tip de redactie

Wil je een document versturen? Stuur dan gewoon direct een mail naar redactie@geenstijl.nl
Hoef je ook geen robotcheck uit te voeren.

GeenStijl.nl is een uitgave van GS Magenta B.V.